Hybride, agile et résiliente : la gestion des données SAP


Données, stockage et gestion des données
La numérisation des processus nécessite une architecture de données et une infrastructure de stockage de données stables. "Une architecture de données stable est impérative", explique Glenn Fitzgerald, CDO Product Business chez Fujitsu EMEA, au début de l'entretien exclusif E-3. "Surtout si les données SAP Hana et les données non-SAP doivent être disponibles sur une plate-forme universelle pour tous les besoins de l'entreprise. C'est là que le service d'inspection du système serait fondamentalement utile". Deux points essentiels sont décisifs pour les utilisateurs : la protection des données et la sécurité des données dans le cadre de la sécurité informatique globale. À l'aide de méthodes d'intelligence artificielle, la solution soutient l'analyse des données pour détecter les anomalies. "Dans le cas concret de la collaboration avec nos partenaires, une plateforme informatique correspondante a été définie et installée sur la base de Kubernetes, du cluster Ceph, des serveurs Primergy de Fujitsu et des serveurs NFS de NetApp", explique Glenn Fitzgerald pour décrire la symbiose au sein de la communauté SAP.

“Intelligent Enterprise, dans lequel les données S/4 et non-SAP sont prises en compte de manière globale.“
Glenn Fitzgerald, CDO, Fujitsu PBL Europe
La réussite de la transformation numérique d'une entreprise dépend avant tout de la manière dont elle gère les données, bien ou mal. Les progrès ne sont possibles qu'avec une stratégie cohérente en matière de données et d'analyse. C'est pourquoi de nombreuses entreprises procèdent actuellement à des changements structurels afin de devenir ce que l'on appelle une Data-driven Company - c'est-à-dire une entreprise qui utilise de manière conséquente ses propres stocks de données afin d'ouvrir de nouvelles opportunités et possibilités pour ses processus commerciaux.
"Dans le cadre de la transformation numérique, les données doivent être préparées, enrichies d'informations, consolidées et mises en relation", définit Thomas Herrmann, Manager Business Development SAP chez NetApp for EMEA. Il a organisé en septembre de cette année une conférence pour les clients SAP existants avec la participation de SAP lui-même, Cisco, Fujitsu, Red Hat et Amazon/AWS. L'interaction entre les fournisseurs informatiques complémentaires pour la gestion des données dans les systèmes SAP a été présentée. L'accent a naturellement été mis sur le thème du cloud computing, avec une attention particulière pour le cloud hybride et, finalement, le défi de la conversion S/4.

“Le flot de données qui accompagne la numérisation implique la mise en œuvre d'un concept d'archivage.“
Thomas Herrmann, Directeur du développement commercial SAP, NetApp
Thomas Herrmann a donc logiquement déclaré lors de l'événement Net-App : "La gestion des données joue donc un rôle décisif et important dans toutes les initiatives de numérisation au sein de l'entreprise. La gestion des données est la somme de toutes les mesures nécessaires pour collecter, stocker et mettre à disposition des données de cette manière. Une fois la numérisation achevée, tous les principaux processus commerciaux reposent sur des données qui doivent être gérées de la manière la plus optimale possible pour être utilisées de manière optimale". Son collègue Robert Madl de Cisco ajoute : "La gestion des données est en tout cas un critère de réussite important. La transformation numérique dans le contexte de SAP est en effet la numérisation, l'optimisation et l'automatisation des processus commerciaux".
Structures de données
La gestion des données est actuellement demandée partout, comme le décrit Robert Madl, directeur de Cisco : "Si j'automatise par exemple des processus dans la production ou la logistique de stockage à l'aide de capteurs - mot-clé IoT -, une quantité de nouvelles données est générée, qui doivent être traitées de manière totalement différente des données ERP traditionnelles. Si l'on commande par exemple des machines sur la base de ces données de capteurs, une transmission fiable avec une faible latence est critique. Si l'on collecte des données de capteurs pour l'analyse Big Data en relation avec les données du système ERP, il n'est pas non plus problématique de stocker ces données réparties de manière hybride dans un Data Lake dans le Cloud et de conserver les bases de données ERP sur site ou dans une colocation. Prendre ici les bonnes décisions en matière de gestion des données est toutefois critique pour la réussite des projets de transformation numérique".

“Les architectures de données hybrides sont réalisables. Le défi réside dans les interdépendances entre les systèmes.“
Robert Madl, Global Strategic Partner Executive, Cisco
D'ici 2024, 93 % des entreprises allemandes utiliseront davantage leurs données pour augmenter leur chiffre d'affaires. 42 % considèrent même les données comme une source importante de revenus. C'est ce qui ressort de la nouvelle étude "The Multi-Cloud Maturity Index", menée auprès d'environ 3000 décideurs commerciaux et informatiques dans la région EMEA. "La dernière décennie a montré que presque tout ce qui nous entoure est axé sur les données. Plus encore, les données sont devenues un actif central de l'entreprise et peuvent, si elles sont bien utilisées, contribuer de manière significative au succès de l'entreprise", souligne Glenn Fitzgerald de Fujitsu lors de la discussion avec le rédacteur en chef de E-3 Peter Färbinger. Et Fitzgerald d'ajouter : "Actuellement, nous vivons dans un monde de données non structurées, de silos de données, d'une croissance exorbitante des données et d'une complexité croissante des données. La manière dont ces données sont gérées est d'autant plus importante pour le succès de l'entreprise. Quelle est la solidité de la stratégie de gestion des données d'une entreprise pour qu'elle puisse à tout moment réagir rapidement aux exigences du marché ?"
Entreprise intelligente
La question décisive est la suivante : quels sont les méthodes et les outils nécessaires pour exploiter avec succès les données, quelles qu'elles soient ? Selon Glenn Fitzgerald, des technologies telles que l'intelligence artificielle et l'apprentissage automatique offrent des solutions et il explique : "Cela permet d'une part d'améliorer considérablement la qualité des données et d'autre part de détecter les erreurs dès la saisie des données. Cela peut être soutenu par une saisie automatisée de type Machine Learning. L'alimentation optimale des processus commerciaux avec les meilleures données qualifiées possibles - et ce au bon moment - est décisive pour le succès de l'entreprise. L'un des principaux objectifs est d'aller chercher le client, d'identifier le défi qu'il doit relever et de lui fournir une solution. Il existe pour cela de nombreuses techniques, méthodes et outils. Nous soutenons ainsi le client et développons ensemble son entreprise intelligente".
Quels sont les critères de stockage des données dans l'entreprise intelligente ? Le système ERP est sur site, les données doivent donc également être sur site ? Le système ERP est dans le cloud, les données doivent-elles y être aussi ? Est-ce correct ? Thomas Herrmann : "Il n'est pas facile de répondre à cette question, car plusieurs facteurs jouent un rôle, la vitesse du réseau, donc une bande passante suffisante vers le cloud, l'emplacement, la distance jusqu'au backbone le plus proche. Accès en temps réel ou traitement par lots, donc quels sont mes SLA en termes de temps de réponse, etc. S'il s'agit d'un traitement en temps réel des données, les données devraient bien sûr se trouver là où elles sont traitées, avec Hana ce serait alors l'informatique en mémoire, que ce soit dans le cloud ou sur site, c'est alors secondaire".
Et Robert Madl de Cisco précise : "Bien sûr, les architectures de données hybrides sont réalisables. Le défi consiste à comprendre les interdépendances entre les systèmes. Souvent, les paysages SAP se sont développés de manière organique pendant des décennies et du code individuel est implémenté partout - dont les créateurs ne sont peut-être même plus dans l'entreprise. C'est pourquoi il existe souvent des dépendances entre les systèmes. Par exemple, un système peut accéder directement à la base de données d'un autre système - ou faire un appel à l'autre système, ce qui déclenche à son tour un accès au niveau des données. Dans ce cas, il est important de comprendre quels systèmes sont dépendants les uns des autres et de quelle manière - c'est-à-dire quelles largeurs de bande sont nécessaires et à quel point cette communication est critique en termes de temps, c'est-à-dire quelles sont les latences maximales autorisées pour que les données nécessaires soient mises à disposition à temps et dans leur intégralité".
Processus et algorithmes
En fin de compte, il s'agit de faire en sorte que le processus commercial représenté sur les systèmes SAP - quel que soit l'endroit où ils fonctionnent - soit performant. "Lorsque l'on répartit des systèmes SAP sur plusieurs sites, il faut tout simplement savoir que l'on a des temps de latence plus élevés et une bande passante plus faible entre les sites, et en tenir compte dans la planification avant même la migration. C'est là qu'AppDynamics peut être extrêmement utile, car il analyse et visualise automatiquement ces dépendances entre les systèmes et les met à disposition pour la planification", explique Robert Madl lors de la discussion.
Que pense le directeur de Cisco du stockage optimal des données ? "Cela dépend du type de données et de leur utilisation. Pour les bases de données comme SAP Hana, il est judicieux d'avoir les données à proximité des ressources de calcul", explique Robert Madl. "Certes, Hana est une base de données en mémoire - ce qui signifie que les données sont conservées dans la mémoire vive du serveur - mais cela n'est utile que pour les transactions de lecture. Les transactions d'écriture ne sont confirmées que lorsque les données ont été écrites sur le niveau de persistance, c'est-à-dire le système de stockage des données. Ici, il est donc critique de disposer d'une E/S rapide entre le serveur et le stockage pour la performance de l'application".
Bases de données en mémoire
Les applications OLTP ont connu leur plus grand essor en termes de performances avec l'introduction de la mémoire flash. Pour les scénarios analytiques (typiquement OLAP), l'impact sur les performances serait moindre au moment de l'exécution grâce à la technique en mémoire, car les données sont déjà conservées - mais le démarrage de ces systèmes prendrait beaucoup de temps si les données ne pouvaient pas être chargées dans la mémoire vive à partir d'un stockage local. Un stockage décentralisé des données peut avoir un réel sens dans le cadre d'analyses Big Data, estime Robert Madl, qui explique : "Si l'on dispose par exemple de plusieurs Data Lakes basés sur Hadoop à proximité de la source de données ou des capteurs, on peut - par exemple avec l'algorithme MapReduce - préagréger les données pour l'analyse de manière décentralisée et itérative, puis ne transmettre que les informations nécessaires à un système central pour un traitement ultérieur".
Quels sont les avantages et les inconvénients de la gestion hybride des données ? Robert Madl le rappelle : "Il s'agit ici d'optimiser les trois facteurs que sont le temps, les coûts et la complexité. Le lieu de création des données ne doit pas nécessairement être le lieu d'utilisation des données. Le transfert de données sur de longues distances entraîne des coûts et prend du temps. Avoir de nombreux lieux différents de stockage des données augmente toutefois la complexité. Dans les projets de transformation numérique, il s'avère souvent judicieux de définir des exigences minimales pour le facteur temps et un cadre maximal pour les coûts, puis d'optimiser en premier lieu la complexité. Par exemple, dans un projet d'usine intelligente, le facteur temps détermine souvent la quantité d'edge computing nécessaire, les coûts de transmission déterminent jusqu'où les données des capteurs doivent être pré-agrégées, et la complexité est finalement le facteur décisif pour la faisabilité et le succès global".
Conversion de S/4 et de données
La gestion et le stockage des données deviennent un facteur de réussite et de coût lors de la conversion S/4. Comment garantir au client SAP existant un succès élevé et des coûts de données réduits ? "En collaboration avec notre client, nous créons une véritable entreprise intelligente dans laquelle les données SAP S/4 Hana et non SAP sont prises en compte de manière globale", explique Glenn Fitzgerald, directeur de Fujitsu, pour décrire le défi. La gestion et le stockage des données dépendent des processus commerciaux de l'entreprise. "C'est là que Fujitsu soutient ses clients avec l'approche dite de co-création. Il s'agit en fait d'un atelier qui suit les directives du Human Centric Experience Design de Fujitsu. En étroite collaboration avec les clients, les partenaires technologiques et nos experts, nous élaborons une approche optimale, accompagnée d'une preuve de concept et d'un plan à long terme pour relever les défis spécifiques et optimiser continuellement l'informatique", explique Glenn Fitzgerald, fort de nombreux projets réussis.
Flux de données et numérisation
Le volume des données chez les clients SAP existants va continuer à croître et, avec lui, probablement les coûts de gestion des données. "Le flux de données qui accompagne la numérisation implique la mise en œuvre d'un concept d'archivage", explique Thomas Herrmann, responsable NetApp, à la fin de l'entretien E-3. "Il faut d'abord déterminer quelles données doivent être archivées conformément à la loi, quelles données veulent être archivées et quelles données doivent être conservées pendant une période donnée. L'archivage moderne des données utilise le cloud. Tous les grands fournisseurs de cloud proposent un niveau d'archivage pour le stockage d'objets.
Ces niveaux deviennent de plus en plus la destination privilégiée des données de sauvegarde avec des exigences de conservation à long terme. Cela inclut toutes les principales offres d'archivage d'AWS, Azure et GCP. Les solutions d'archivage dans le cloud sont les niveaux de stockage d'objets les plus rentables disponibles aujourd'hui et peuvent évoluer vers des pétaoctets de stockage si nécessaire, au fur et à mesure de l'augmentation de la taille des données archivées. NetApp Cloud Backup, par exemple, offre un service complet de protection à long terme de vos données dans des environnements hétérogènes, que ce soit dans le cloud, sur site ou dans une combinaison hybride de ces plates-formes. NetApp Cloud Backup prend en charge les niveaux de stockage d'archives des fournisseurs de cloud mentionnés ci-dessus en tant que destinations pour vos données de sauvegarde et d'archivage à long terme".
Données et charges de travail
Le directeur de Cisco Robert Madl a encore un conseil à donner aux clients SAP existants : "Les charges de travail SAP ne vivent généralement pas en vase clos. Une infrastructure optimale pour SAP Hana ne doit donc pas seulement être optimale pour Hana elle-même, mais aussi pour toutes les autres charges de travail, afin que l'on ne doive pas construire un silo de gestion supplémentaire dans l'IT pour cette seule charge de travail. Pour le Cisco Flexpod, il existe environ 200 architectures de référence sur la manière d'exploiter les charges de travail de manière fiable - non seulement les charges de travail SAP comme Hana, mais aussi, par exemple, les services web qui font souvent partie du processus commercial représenté et soutenu par le système SAP. Avec Flexpod XCS, il existe désormais la version optimisée multicloud de Flexpod, qui étend précisément ces architectures de référence à des scénarios où l'on peut externaliser et connecter des services dans le cloud sans frais administratifs supplémentaires".
